地面运动预测方程通常用于预测地震强度分布。但是,将这种方法应用于受地下板结构影响的地震分布并不容易,这通常称为异常地震分布。这项研究提出了使用神经网络进行回归和分类方法的混合体。提出的模型将分布视为二维数据,如图像。我们的方法可以准确预测地震强度分布,甚至异常分布。
translated by 谷歌翻译
Image Super-Resolution (SR) is essential for a wide range of computer vision and image processing tasks. Investigating infrared (IR) image (or thermal images) super-resolution is a continuing concern within the development of deep learning. This survey aims to provide a comprehensive perspective of IR image super-resolution, including its applications, hardware imaging system dilemmas, and taxonomy of image processing methodologies. In addition, the datasets and evaluation metrics in IR image super-resolution tasks are also discussed. Furthermore, the deficiencies in current technologies and possible promising directions for the community to explore are highlighted. To cope with the rapid development in this field, we intend to regularly update the relevant excellent work at \url{https://github.com/yongsongH/Infrared_Image_SR_Survey
translated by 谷歌翻译
场景文本图像综合技术旨在自然构成背景场景上的文本实例,非常吸引训练深神经网络,因为它们可以提供准确而全面的注释信息。先前的研究探索了基于实际观察结果的规则,在二维和三维表面上生成了合成文本图像。其中一些研究提出了从学习中生成场景文本图像。但是,由于缺乏合适的培训数据集,已经探索了无监督的框架,以从现有的现实世界数据中学习,这可能不会导致强大的性能。为了缓解这一难题并促进基于学习的场景文本综合研究,我们建议使用公共基准准备的真实世界数据集,并具有三种注释:四边形级别的bbox,streoke-level文本掩码和文本屏蔽词图片。使用Depompst数据集,我们提出了一个图像合成引擎,其中包括文本位置建议网络(TLPNET)和文本外观适应网络(TAANET)。 TLPNET首先预测适合文本嵌入的区域。然后,taanet根据背景的上下文自适应地改变文本实例的几何形状和颜色。我们的全面实验验证了提出的方法为场景文本检测器生成预浏览数据的有效性。
translated by 谷歌翻译
模拟,低压电子产品在生产硅神经元(SINS)时表现出具有前所未有的能效水平。然而,他们固有的处理,电压和温度(PVT)变化和噪声长期被认为是开发有效神经态溶液的主要瓶颈。受到生物物理学的峰值传播研究的启发,我们证明了固有的噪音和变异性可以与模拟血管中可靠的尖峰传播共存,类似于生物神经元。我们通过展示三种不同相关类型的可靠事件传输:单秒尖传输,突发传输和半中心振荡器(HCO)网络的开关控制来说明该爆破神经元最近的神经晶模型。
translated by 谷歌翻译
由于其在分布式机器学习中的隐私保护,联邦学习引起了很多研究。然而,联合学习的现有工作主要侧重于卷积神经网络(CNN),其无法有效处理在许多应用中流行的图形数据。图表卷积网络(GCN)已被提出为图表学习最有前途的技术之一,但其联邦设置很少探索。在本文中,我们提出了在多个计算客户端之间的联合图学习的FedRogk,每个Chouble Graph学习,其中每个计算包括子图。 Fed FredGraph通过解决两个独特的挑战来提供强大的图形学习能力。首先,传统的GCN培训需要客户之间的数据共享,导致隐私泄漏的风险。 Fed FedGraph使用新的跨客户端卷积操作来解决此问题。第二个挑战是高GCN训练开销,由大图尺寸发生。我们提出了一种基于深度加强学习的智能图形采样算法,可以自动收敛到平衡训练速度和准确性的最佳采样策略。我们基于Pytorch实现FedFraph,并在测试平台上部署绩效评估。四个流行数据集的实验结果表明,Fed FedGraph通过使更高的准确性更快地融合来显着优于现有的工作。
translated by 谷歌翻译
场景文本擦除,它在自然图像中替换了具有合理内容的文本区域,近年来在计算机视觉社区中造成了重大关注。场景文本删除中有两个潜在的子任务:文本检测和图像修复。两个子任务都需要相当多的数据来实现更好的性能;但是,缺乏大型现实世界场景文本删除数据集不允许现有方法实现其潜力。为了弥补缺乏成对的真实世界数据,我们在额外的增强后大大使用了合成文本,随后仅在改进的合成文本引擎生成的数据集上培训了我们的模型。我们所提出的网络包含一个笔划掩模预测模块和背景染色模块,可以从裁剪文本图像中提取文本笔划作为相对较小的孔,以维持更多的背景内容以获得更好的修复结果。该模型可以用边界框部分删除场景图像中的文本实例,或者使用现有场景文本检测器进行自动场景文本擦除。 SCUT-SYN,ICDAR2013和SCUT-ENSTEXT数据集的定性和定量评估的实验结果表明,即使在现实世界数据上培训,我们的方法也显着优于现有的最先进的方法。
translated by 谷歌翻译